差异隐私(DP)提供了正式的隐私保证,以防止对手可以访问机器学习模型,从而从提取有关单个培训点的信息。最受欢迎的DP训练方法是差异私有随机梯度下降(DP-SGD),它通过在训练过程中注入噪声来实现这种保护。然而,以前的工作发现,DP-SGD通常会导致标准图像分类基准的性能显着降解。此外,一些作者假设DP-SGD在大型模型上固有地表现不佳,因为保留隐私所需的噪声规范与模型维度成正比。相反,我们证明了过度参数化模型上的DP-SGD可以比以前想象的要好得多。将仔细的超参数调整与简单技术结合起来,以确保信号传播并提高收敛速率,我们获得了新的SOTA,而没有额外数据的CIFAR-10,在81.4%的81.4%下(8,10^{ - 5}) - 使用40 -layer wide-Resnet,比以前的SOTA提高了71.7%。当对预训练的NFNET-F3进行微调时,我们在ImageNet(0.5,8*10^{ - 7})下达到了83.8%的TOP-1精度。此外,我们还在(8,8 \ cdot 10^{ - 7})下达到了86.7%的TOP-1精度,DP仅比当前的非私人SOTA仅4.3%。我们认为,我们的结果是缩小私人图像分类和非私有图像分类之间准确性差距的重要一步。
translated by 谷歌翻译
鉴于对机器学习模型的访问,可以进行对手重建模型的培训数据?这项工作从一个强大的知情对手的镜头研究了这个问题,他们知道除了一个之外的所有培训数据点。通过实例化混凝土攻击,我们表明重建此严格威胁模型中的剩余数据点是可行的。对于凸模型(例如Logistic回归),重建攻击很简单,可以以封闭形式导出。对于更常规的模型(例如神经网络),我们提出了一种基于训练的攻击策略,该攻击策略接收作为输入攻击的模型的权重,并产生目标数据点。我们展示了我们对MNIST和CIFAR-10训练的图像分类器的攻击的有效性,并系统地研究了标准机器学习管道的哪些因素影响重建成功。最后,我们从理论上调查了有多差异的隐私足以通过知情对手减轻重建攻击。我们的工作提供了有效的重建攻击,模型开发人员可以用于评估超出以前作品中考虑的一般设置中的个别点的记忆(例如,生成语言模型或访问培训梯度);它表明,标准模型具有存储足够信息的能力,以实现培训数据点的高保真重建;它表明,差异隐私可以成功减轻该参数制度中的攻击,其中公用事业劣化最小。
translated by 谷歌翻译
我们研究了从强大和差异私有优化产生的学习困难。我们首先使用差异隐私研究梯度下降基础的对抗基础训练的融合,以线性可分离的数据为例作为说明性示例。我们比较私人和非私人环境中对抗性和名义风险之间的差距,表明私人优化依赖的数据维度依赖性术语化化各种依赖于学习鲁棒模型的困难。在此之后,我们讨论了普遍培训和差异隐私伤害优化的哪些部分,确定了差异隐私中的对抗扰动和剪切规范的大小都会增加损失景观的曲率,这意味着较差的普遍性表现。
translated by 谷歌翻译
本文旨在帮助构建与大规模语言模型(LMS)相关的风险景观。为了促进负责任的创新的进步,需要深入了解这些模型提出的潜在风险。详细分析了广泛的建立和预期的风险,借鉴了计算机科学,语言学和社会科学的多学科专业知识和文学。我们概述了六个具体风险领域:I.歧视,排除和毒性,II。信息危害,III。误导危害,V.恶意用途,V.人机互动危害,vi。自动化,访问和环境危害。第一个领域涉及陈规定型,不公平歧视,排他性规范,有毒语言和LMS社会群体的绩效。第二个重点侧重于私有数据泄漏或LMS正确推断敏感信息的风险。第三次解决贫困,虚假或误导性信息的风险,包括在敏感域中,以及敲门式风险,如共享信息的信任侵蚀。第四次考虑了试图使用LMS造成伤害的行动者的风险。第五部分侧重于用于支持与人类用户互动的会话代理的LLMS特异性的风险,包括不安全使用,操纵或欺骗。第六六探讨了对不同社会群体或社区可能产生不同影响的环境危害,工作自动化和其他挑战的风险。总的来说,我们审查了21个风险。我们讨论了不同风险的起源点和指向潜在的缓解方法。最后,我们讨论在实施减轻的组织职责,以及协作和参与的作用。我们强调了进一步研究的方向,特别是在扩展工具包时,用于评估和评估LMS中的概述风险。
translated by 谷歌翻译
To date, no "information-theoretic" frameworks for reasoning about generalization error have been shown to establish minimax rates for gradient descent in the setting of stochastic convex optimization. In this work, we consider the prospect of establishing such rates via several existing information-theoretic frameworks: input-output mutual information bounds, conditional mutual information bounds and variants, PAC-Bayes bounds, and recent conditional variants thereof. We prove that none of these bounds are able to establish minimax rates. We then consider a common tactic employed in studying gradient methods, whereby the final iterate is corrupted by Gaussian noise, producing a noisy "surrogate" algorithm. We prove that minimax rates cannot be established via the analysis of such surrogates. Our results suggest that new ideas are required to analyze gradient descent using information-theoretic techniques.
translated by 谷歌翻译
神经算法推理的基石是解决算法任务的能力,尤其是以一种概括分布的方式。尽管近年来,该领域的方法学改进激增,但它们主要集中在建立专家模型上。专业模型能够学习仅执行一种算法或具有相同控制流骨干的算法的集合。相反,在这里,我们专注于构建通才神经算法学习者 - 单个图形神经网络处理器,能够学习执行各种算法,例如分类,搜索,动态编程,路径触发和几何学。我们利用CLRS基准来凭经验表明,就像在感知领域的最新成功一样,通才算法学习者可以通过“合并”知识来构建。也就是说,只要我们能够在单任务制度中学习很好地执行它们,就可以以多任务的方式有效地学习算法。在此激励的基础上,我们为CLR提供了一系列改进,对CLR的输入表示,培训制度和处理器体系结构,将平均单任务性能提高了20%以上。然后,我们进行了多任务学习者的彻底消融,以利用这些改进。我们的结果表明,一位通才学习者有效地结合了专家模型所捕获的知识。
translated by 谷歌翻译
在Xu和Raginksy [1]引入的框架的基础上,我们研究了基于模型的贝叶斯强化学习问题的最佳实现性能。为此,我们将最小贝叶斯遗憾(MBR)定义为可通过从收集的数据学习或了解环境及其动态来获得的最大预期累积奖励之间的差异。我们将此定义专门用于强化学习问题,以模仿马尔可夫决策过程(MDPS),其内核参数是代理不明的,并且其不确定性由先前的分布表示。提出了一种推导MBR上上限的方法,并根据相对熵和Wasserstein距离进行特定边界。然后,我们专注于两种特定的MDP案例,即多臂强盗问题(MAB)和与部分反馈问题的在线优化。对于后一个问题,我们表明我们的界限可以从Russo和Van Roy [2]的当前信息理论界限以下恢复。
translated by 谷歌翻译
检查裂缝是正确监视和维护建筑物的重要过程。但是,手动裂缝检查是耗时,不一致且危险的(例如,在高建筑物中)。由于开源AI技术的开发,可用的无人机(UAV)的增加以及智能手机摄像机的可用性,已经有可能自动化建筑物裂纹检查过程。这项研究介绍了使用最先进的分段算法来开发一种易于使用,免费和开源的自动化建筑物外部裂纹检查软件(ABECIS),用于建筑和设施经理定量和定性报告。使用在现实世界中的无人机和智能手机摄像机和受控实验室环境中收集的图像对Abecis进行了测试。从算法的原始输出来看,用于测试实验的工会上的中值相交​​是(1)0.686,用于使用商业无人机在受控的实验室环境中使用商业无人机在室内裂纹检测实验,(2)0.186,用于使用室内裂纹检测在施工现场检测的室内裂纹。智能手机和(3)0.958使用商业无人机在大学校园进行户外裂纹检测。当人类操作员选择性地消除误报时,这些IOU结果可以显着提高到0.8以上。通常,Abecis最适合室外无人机图像,将算法预测与人类验证/干预相结合提供非常准确的裂纹检测结果。该软件可公开可用,可以下载以供开箱即用:https://github.com/smart-nyuad/abecis
translated by 谷歌翻译
逃生加强学习系统的越来越趋势使其进入现实世界应用的进入现实应用程序的伴随着对他们的安全和鲁棒性的担忧越来越伴随着。近年来,已经提出了各种方法来解决安全意识的加强学习的挑战;然而,这些方法通常需要预先提供要提供的环境的手绘模型,或者环境相对简单且低维度。我们在称为潜在屏蔽的高维环境中提出了一种新的安全意识深度增强学习方法。潜在的屏蔽利用模型的代理学到的环境的内部表示,以“想象”未来的轨迹,避免被视为不安全的人。我们通过实验证明这种方法导致改善对正式定义的安全规范的依从性。
translated by 谷歌翻译
我们提出了一种基于标准化流动的机器学习方法,用于建模原子固体。我们的模型将一个分析的易诊断分布转换为目标固体,而无需进行地面真实样品进行培训。我们向赫尔莫霍尔茨自由能量估算报告为单立方和六角形冰,如解象水,以及截断的leennard-jones系统,并发现它们与文学价值观的良好协议以及既定基线方法的估计。我们进一步研究了结构性,并表明模型样品几乎与分子动力学所获得的模型难以区分。因此,我们的结果表明,标准化流动可以提供高质量的样品和固体的自由能估计,而无需多阶段或用于对晶体几何体施加的限制。
translated by 谷歌翻译